AI Act: cosa prevede per l’istruzione


AI Act: cosa prevede per l’istruzione

Fonte: Tuttoscuola. Articolo di Francesco Agrusti* del 27 marzo 2024.

Bruxelles si è mossa in maniera davvero tempestiva: dopo aver rilasciato il testo definitivo, il 13 marzo 2024, con 523 voti favorevoli, 46 contrari e 49 astensioni, il Parlamento europeo ha approvato il cosiddetto AI Act, il regolamento europeo sull’intelligenza artificiale (AI). Anche se manca ancora l’approvazione del Consiglio europeo (un semplice adempimento formale), una volta giunti alla pubblicazione nella Gazzetta Ufficiale dell’Unione europea, passeranno sei mesi per la diretta applicabilità delle prime disposizioni, un anno per le seconde e due anni affinché l’intero regolamento sia direttamente applicabile dei diversi paesi dell’Unione. C’è tempo, anche se non moltissimo, per adeguarsi.

L’obiettivo principale del regolamento è rendere centrale lo sviluppo dei modelli di AI generativa e dei loro prodotti finali rispettando la democrazia, la dignità delle persone e tutelando i loro diritti fondamentali oltre che proteggere la sostenibilità ambientale di queste tecnologie ad alto rischio, seppur sempre garantendo uno sviluppo florido a tali tecnologie a finalità generale (“general purpose”). Dopo aver vinto le ritrosie di Paesi come Francia e Germania, l’Europa ha deciso pertanto che l’AI Act non regolerà esclusivamente le soluzioni finali ma i modelli generativi, la tecnologia in grado di realizzare tali prodotti. Il regolamento prevede sanzioni dall’1 al 7% del fatturato globale di quelle aziende che non si adegueranno.

Trovare una posizione di equilibrio, nel disciplinare fenomeni liquidi, in continua evoluzione, così come è l’AI non è stata una impresa facile e si dovrà verificare poi come garantire l’applicazione e il funzionamento di tale regolamento. Al momento solo la Spagna si è dotata di una agenzia ad hoc per l’AI, in quanto la lettura delle 272 pagine del testo (disponibile qui: https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf) non è alla portata di tutti, men che meno la sua applicazione da parte delle PMI che formano la maggior parte del tessuto imprenditoriale italiano.

Tra le pratiche vietate si trovano: l’uso dell’AI per manipolare i comportamenti degli individui (ad esempio per convincerli a votare certi candidati politici); lo scraping su internet (una sorta di pesca a strascico) di dati relativi ai volti; qualsiasi sistema di social scoring; o infine la polizia predittiva.

Per il mondo dell’istruzione, nell’art. 5 Prohibited Artificial Intelligence Practices, il testo include il divieto di riconoscimento delle emozioni nelle istituzioni educative, sebbene vi siano delle eccezioni per motivi di sicurezza o medici. Nel terzo allegato sono inoltre riportati un nutrito elenco di esempi, che saranno aggiornati man mano, dell’uso dell’AI, nello specifico per l’istruzione e la formazione professionale sono ritenuti ad altro rischio tutti quei sistemi utilizzati per: determinare l’accesso o l’ammissione a corsi di qualsivoglia grado d’istruzione; valutare i risultati dell’apprendimento, anche quando questi sono utilizzati per individualizzare il percorso stesso; predeterminare a quale livello d’istruzione potrà accedere un determinato individuo o infine per il monitoraggio e l’individuazione di comportamenti vietati dei candidati durante le prove di valutazione.

L’Unione Europea punta a posizionarsi come pioniere nella storia delle regolamentazioni relative ai fenomeni tecnologici, che in un mercato globale potrebbe ad isolare l’Europa nell’innovazione oppure, rimanendo ottimisti, l’idea di rinunciare a una mole di più o meno 400 milioni di persone connesse potrà portare tante aziende ad adeguarsi a regole, che almeno finora, sembrano ampiamente di buon senso.

*Docente dell’Università Roma Tre



 
Segnala Stampa Esci Home